Coursera week4
Neural Network(ニューラルネットワーク)概要編
ニューラルネットワークの概念図
https://gyazo.com/1b01c3924261129b03c22b46adc0dd01
入力層から出力層を予測する際、その間に隠れ層が入ることで非線形の複雑な計算を可能にします。この隠れ層には、活性化関数が入ります。具体的には、ロジスティック回帰 (Logistic regression)が入ります。
Hypothesis function(仮説関数)
仮説関数の式
https://gyazo.com/c9147c242eb43a31b4753021c436e791
仮説関数を求める手順
①入力層$ x に重み$ \theta を掛けて、行列計算した結果を、隠れ層$ a^{(2)} に渡します。
②隠れ層$ a^{(2)} では、ロジスティック関数$ g(z) を用いて計算し、その結果を出力層に渡します。
③出力層に渡された結果は、ロジスティック関数で計算しているため、$ 0 か$ 1 になります。これが最終的な出力になります。
仮説関数の例
https://gyazo.com/d3a8482ffbe460f0e44d26292702537d
上の図では、重みを適当に与えています。$ x_1 = 1, x_2 = 1 のときのみ出力が$ 1 となるため、論理積(AND)が実装されてるといえます。これは、あくまで1つの例ですので、重みの値によっては、他にも、XORやXNOR(NOT$ x1 AND NOT$ x2 )などになる場合もあります。
https://qiita.com/katsu1110/items/cc54c258f2533f8a0149